« ChatGPT comprend beaucoup plus que nous le prétendons »


Noam Chomsky, vénérable pionnier de l’intelligence artificielle (IA) et plus précisément de la linguistique computationnelle, s’efforce, à longueur de vidéos YouTube récentes, de dénoncer une forme de démission scientifique devant les performances extraordinaires qu’il reconnaît du logiciel ChatGPT. Si Geoffrey Hinton, Prix Turing 2019, a signé le moratoire plaidant une décélération, sinon un arrêt brutal des développements en IA, c’est que, lui aussi, de tout temps évangéliste des réseaux de neurones à l’origine de ChatGPT, se trouve abasourdi devant la capacité de ce même logiciel à réaliser des tâches d’une très grande exigence intellectuelle, nonobstant un apprentissage qui, a priori, ne le prédestine en rien à cela.

Pour M. Hinton, il ne fait aucun doute que ChatGPT comprend beaucoup plus que nous ne le prétendons dans les médias. Pourtant, pendant sa phase d’entraînement, ce logiciel était censé apprendre simplement à prédire le prochain mot d’une phrase, et pour l’essentiel à partir d’une quantité gigantesque de textes qu’on lui présente. En tant qu’humains, nous n’avons pas appris la logique, l’arithmétique ni le codage informatique en complétant des textes donnés en exemples, alors pourquoi et comment lui y parvient ? Le mystère est à son comble.

Au grand dam de toute une génération de chercheurs en IA, nous assistons depuis une bonne vingtaine d’années à l’extraordinaire revanche de l’IA neuronale, inconsciente et apprenante, sur sa version consciente, codée par des humains, sous forme de règles syntaxiques, logiques et autres ontologies sémantiques. Et ce grâce aux progrès réalisés par la puissance de calcul en pétaoctets, qui équivaut à un milliard de livres et de données stockées.

On ne peut que s’étonner de ce retour en force des voies neuronales d’origine de l’IA, incarnation indispensable que revendiquait déjà toute une génération de chercheurs dans les années 1950. Il s’agit de la revanche du biologique sur le cognitif, mais aussi d’un incroyable pas de côté de toute la tradition rationnelle, symbolique et surtout intelligible, qui semblait, par introspection et imitation, la voie royale de l’intelligence logicielle.

Triple abstraction cognitive

Comment fait ChatGPT, par exemple, pour induire les règles générales de l’arithmétique, au départ de la simple présentation des multiples opérations arithmétiques contenues dans les textes dont on l’a abreuvé ? Comment fait-il pour générer les bons codes informatiques, contenant les bonnes variables et instructions, adaptés à tout problème nouveau exprimé en langage courant, qu’on lui demande de résoudre ?

Il vous reste 65% de cet article à lire. La suite est réservée aux abonnés.



Source
Catégorie article Politique

Ajouter un commentaire

Commentaires

Aucun commentaire n'a été posté pour l'instant.